<?xml version="1.0" encoding="UTF-8"?>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" article-type="research-article" dtd-version="1.2" xml:lang="en">
  <front>
    <journal-meta>
      <journal-id journal-id-type="issn">1561-5405</journal-id>
	    <journal-id journal-id-type="doi">10.24151/1561-5405</journal-id>	  
      <journal-id journal-id-type="publisher-id">Proceedings of Universities. Electronics</journal-id>
      <journal-title-group>
        <journal-title xml:lang="en">Scientifical and technical journal "Proceedings of Universities. Electronics"</journal-title>
        <trans-title-group xml:lang="ru">
          <trans-title>Научно-технический журнал «Известия высших учебных заведений. Электроника»</trans-title>
        </trans-title-group>        
      </journal-title-group>      
      <issn publication-format="print">1561-5405</issn>
      <issn publication-format="online">2587-9960</issn>
      <publisher>
        <publisher-name xml:lang="en">National Research University of Electronic Technology</publisher-name>
        <publisher-name xml:lang="ru">Национальный исследовательский университет "Московский институт электронной техники"</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>                                    
      
    <article-id pub-id-type="doi">10.24151/1561-5405-2026-31-2-225-239</article-id><article-id pub-id-type="risc">QUZQJF</article-id><article-id pub-id-type="udk">004.315.7</article-id><article-categories><subj-group><subject>Информационно-коммуникационные технологии</subject></subj-group></article-categories><title-group><article-title xml:lang="en">Architecture of reconfigurable systolic array for neural network booster</article-title><trans-title-group xml:lang="ru"><trans-title>Архитектура реконфигурируемого систолического массива для ускорителя нейронных сетей</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author"><string-name xml:lang="ru">Гуржов Никита Александрович</string-name><name-alternatives><name xml:lang="ru"><surname>Гуржов</surname><given-names>Никита Александрович</given-names></name><name xml:lang="en"><surname>Gurzhov</surname><given-names>Nikita A.</given-names></name></name-alternatives><string-name xml:lang="en">Nikita A. Gurzhov</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Переверзев Алексей Леонидович</string-name><name-alternatives><name xml:lang="ru"><surname>Переверзев</surname><given-names>Алексей Леонидович</given-names></name><name xml:lang="en"><surname>Pereverzev</surname><given-names>Alexey L.</given-names></name></name-alternatives><string-name xml:lang="en">Alexey L. Pereverzev</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Примаков Евгений Владимирович</string-name><name-alternatives><name xml:lang="ru"><surname>Примаков</surname><given-names>Евгений Владимирович</given-names></name><name xml:lang="en"><surname>Primakov</surname><given-names>Evgeny V.</given-names></name></name-alternatives><string-name xml:lang="en">Evgeny V. Primakov</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Силантьев Александр Михайлович</string-name><name-alternatives><name xml:lang="ru"><surname>Силантьев</surname><given-names>Александр Михайлович</given-names></name><name xml:lang="en"><surname>Silantiev</surname><given-names>Aleksander M.</given-names></name></name-alternatives><string-name xml:lang="en">Aleksander M. Silantiev</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Солодовников Андрей Павлович</string-name><name-alternatives><name xml:lang="ru"><surname>Солодовников</surname><given-names>Андрей Павлович</given-names></name><name xml:lang="en"><surname>Solodovnikov</surname><given-names>Andrey P.</given-names></name></name-alternatives><string-name xml:lang="en">Andrey P. Solodovnikov</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Чусов Сергей Андреевич</string-name><name-alternatives><name xml:lang="ru"><surname>Чусов</surname><given-names>Сергей Андреевич</given-names></name><name xml:lang="en"><surname>Chusov</surname><given-names>Sergey A.</given-names></name></name-alternatives><string-name xml:lang="en">Sergey A. Chusov</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><contrib contrib-type="author"><string-name xml:lang="ru">Якунин Алексей Николаевич</string-name><name-alternatives><name xml:lang="ru"><surname>Якунин</surname><given-names>Алексей Николаевич</given-names></name><name xml:lang="en"><surname>Yakunin</surname><given-names>Aleksey N.</given-names></name></name-alternatives><string-name xml:lang="en">Aleksey N. Yakunin</string-name><xref ref-type="aff" rid="AFF-1"/></contrib><aff id="AFF-1" xml:lang="ru">National Research University of Electronic Technology, Russia, 124498, Moscow, Zelenograd, Shokin sq., 1</aff></contrib-group><pub-date iso-8601-date="2026-03-03" date-type="pub" publication-format="electronic"><day>03</day><month>03</month><year>2026</year></pub-date><volume>Том. 31 №2</volume><fpage>225</fpage><lpage>239</lpage><self-uri>http://ivuz-e.ru/en/issues/Том 31 №2/arkhitektura_rekonfiguriruemogo_sistolicheskogo_massiva_dlya_uskoritelya_neyronnykh_setey/</self-uri><self-uri content-type="pdf">http://ivuz-e.ru#</self-uri><abstract xml:lang="en"><p>Systolic arrays within heterogeneous computing platforms allow for substantial performance gains in numerical methods, combinatorial problem solving, as well as in image, signal, speech, and text processing. Systolic arrays use accelerates tensor computations by reducing memory traffic and avoiding the transfer of intermediate data through external subsystems. However, available open-source implementations are limited in scope and lack the ability to be reconfigured. In this work, reconfigurable systolic array architecture is proposed based on two fundamental modes: with static sums (Output Stationary) and static weights (Weight Stationary). It has been established that the preferable configuration depends on the target workload. In operations requiring high computational speed it is advisable to use mode with static sums. In that case, the execution cycles’ number is reduced 27-fold in average. When energy efficiency and reduction in number of memory requests are in priority, mode with static weights is more advantageous. Consequently, in convolutional tasks, memory access requirements are lowered by approximately 1.5 times. The research outcomes may find application in the design of systems requiring flexible and resource-efficient implementation of tensor operations customized according to specific operating conditions.</p></abstract><trans-abstract xml:lang="ru"><p>Систолические массивы в составе гетерогенных вычислительных архитектур позволяют достигать высокой производительности при решении задач численных методов, комбинаторных алгоритмов, а также при обработке изображений, сигналов, речи и текстовой информации. Использование систолических массивов обеспечивает ускорение тензорных вычислений за счет минимизации обращений к памяти и исключения необходимости передачи промежуточных данных через внешние подсистемы. Однако существующие открытые решения имеют ограниченную функциональность и не предусматривают динамической перенастройки. В работе предложена реконфигурируемая архитектура систолического массива, основанная на двух режимах работы – со статическими суммами &amp;#40;Output Stationary&amp;#41; и статическими весами &amp;#40;Weight Stationary&amp;#41;. Установлено, что выбор режима работы должен определяться характером целевой задачи. В операциях, требующих быстродействия, целесообразно применять режим работы со статическими суммами. В таком случае количество тактов выполнения в среднем уменьшается в 27 раз. При акценте на энергоэффективность и сокращение количества обращений к памяти предпочтительным является режим работы со статическими весами. Как следствие, в задачах свертки количество обращений снижается приблизительно в 1,5 раза. Полученные результаты могут найти применение при проектировании систем, требующих адаптивности и оптимизации тензорных вычислений под конкретные условия эксплуатации.</p></trans-abstract><kwd-group xml:lang="ru"><kwd>systolic array</kwd><kwd>static sums</kwd><kwd>static weights</kwd><kwd>Output Stationary</kwd><kwd>Weight Stationary</kwd><kwd>reconfigurable structure</kwd><kwd>quantization</kwd><kwd>neural networks</kwd></kwd-group><kwd-group xml:lang="en"><kwd>systolic array</kwd><kwd>static sums</kwd><kwd>static weights</kwd><kwd>Output Stationary</kwd><kwd>Weight Stationary</kwd><kwd>reconfigurable structure</kwd><kwd>quantization</kwd><kwd>neural networks</kwd></kwd-group><funding-group/></article-meta>
  </front>
  <body/>
  <back>
    <ref-list><ref id="B1"><label>1.</label><mixed-citation xml:lang="ru">Гуржов Н. А., Переверзев А. Л., Силантьев А. М., Примаков Е. В., Солодовников А. П. Разработка реконфигурируемого систолического массива для ускорения вычисления слоев нейронной сети. Тенденции развития науки и образования. 2024;(116-19):75–80. https://doi.org/10.18411/trnio-12-2024-868. EDN: KSKOWJ.</mixed-citation></ref><ref id="B2"><label>3.</label><mixed-citation xml:lang="ru">Gurzhov N. A., Pereverzev A. L., Silant’yev A. M., Primakov E. V., Solodovnikov A. P. Development of reconfigurable systolic array for speeding up calculation of neural network layers. Tendentsii razvitiya nauki i obrazovaniya. 2024;(116-19):75–80. (In Russ.). https://doi.org/10.18411/trnio-12-2024-868</mixed-citation></ref><ref id="B3"><label>2.</label><mixed-citation xml:lang="ru">Kung H. T. Why systolic architectures? Computer. 1982;15(1):37–46. https://doi.org/10.1109/MC.1982.1653825</mixed-citation></ref><ref id="B4"><label>3.</label><mixed-citation xml:lang="ru">TPU architecture. Google Cloud TPU. 2025. Available at: https://cloud.google.com/tpu/docs/system-architecture-tpu-vm (accessed: 18.11.2025).</mixed-citation></ref><ref id="B5"><label>4.</label><mixed-citation xml:lang="ru">Zehendner E. 16.1. Basic concepts of systolic systems. In: Algorithms of Informatics. Vol. 2: Applications. Ed. A. Iványi. Budapest: mondAt Kiadó; 2007, pp. 752–760.</mixed-citation></ref><ref id="B6"><label>5.</label><mixed-citation xml:lang="ru">Understanding matrix multiplication on a weight-stationary systolic architecture. Telesens. 30.07.2018. Available at: https://telesens.co/2018/07/30/systolic-architectures/ (accessed: 18.11.2025).</mixed-citation></ref><ref id="B7"><label>6.</label><mixed-citation xml:lang="ru">Benoit J., Kligys S., Chen B., Zhu M., Tang M., Howard A. et al. Quantization and training of neural networks for efficient integer-arithmetic-only inference. In: 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE; 2018, pp. 2704–2713. https://doi.org/10.1109/CVPR.2018.00286</mixed-citation></ref><ref id="B8"><label>7.</label><mixed-citation xml:lang="ru">Nagel M., Fournarakis M., Amjad R. A., Bondarenko Ye., Baalen M. van, Blankevoort T. A white paper on neural network quantization. arXiv.org. 15.06.2021. Available at: https://arxiv.org/abs/2106.08295 (accessed: 18.03.2025). https://doi.org/10.48550/arxiv.2106.08295</mixed-citation></ref><ref id="B9"><label>8.</label><mixed-citation xml:lang="ru">Sun W., Liu D., Zou Zh., Sun Wen., Kang Y., Chen S. Sense: Model hardware co-design for accelerating sparse CNN on systolic array. arXiv.org. 01.02.2022. Available at: https://arxiv.org/abs/2202.00389 (accessed: 18.03.2025). https://doi.org/10.48550/arxiv.2202.00389</mixed-citation></ref><ref id="B10"><label>9.</label><mixed-citation xml:lang="ru">Marino K., Zhang P., Prasanna V. ME-ViT: A single-load memory-efficient FPGA accelerator for vision transformers. arXiv.org. 15.02.2024. Available at: https://arxiv.org/abs/2402.09709 (accessed: 18.03.2025). https://doi.org/10.48550/arxiv.2402.09709</mixed-citation></ref><ref id="B11"><label>10.</label><mixed-citation xml:lang="ru">Selvam S., Ganesan V., Kumar P. FuSeConv: Fully separable convolutions for fast inference on systolic arrays. arXiv.org. 27.05.2021. Available at: https://arxiv.org/abs/2105.13434 (accessed: 18.03.2025). https://doi.org/10.48550/arxiv.2105.13434</mixed-citation></ref><ref id="B12"><label>11.</label><mixed-citation xml:lang="ru">Initializing weights for the convolutional and fully connected layers. Telesens. 09.04.2018. Available at: https://www.telesens.co/2018/04/09/initializing-weights-for-the-convolutional-and-fully-connected-la... (accessed: 18.11.2025).</mixed-citation></ref></ref-list>    
  </back>
</article>
